Triplet extraction aims to extract entities and their corresponding relations in unstructured text. Most existing methods train an extraction model on high-quality training data, and hence are incapable of extracting relations that were not observed during training. Generalizing the model to unseen relations typically requires fine-tuning on synthetic training data which is often noisy and unreliable. In this paper, we argue that reducing triplet extraction to a template filling task over a pre-trained language model can equip the model with zero-shot learning capabilities and enable it to leverage the implicit knowledge in the language model. Embodying these ideas, we propose a novel framework, ZETT (ZEro-shot Triplet extraction by Template infilling), that is based on end-to-end generative transformers. Our experiments show that without any data augmentation or pipeline systems, ZETT can outperform previous state-of-the-art models with 25% less parameters. We further show that ZETT is more robust in detecting entities and can be incorporated with automatically generated templates for relations.
translated by 谷歌翻译
文本AutoEncoders的最新进展显着提高了潜在空间的质量,这使得模型能够从聚合的潜伏向量生成语法和一致的文本。作为此属性的成功应用程序,无监督的意见摘要模型通过解码输入的聚合潜伏向量来生成摘要。更具体地,它们通过简单的平均值执行聚合。然而,关于矢量聚合步骤如何影响生成质量的知之甚少。在这项研究中,我们通过检查潜在空间和生成的摘要来重新审视常用的简单平均方法。我们发现,由于汇总潜在向量中的意外$ L_2 $ -NORM收缩,我们将倾向于从简单的潜在潜在的潜在潜伏的潜伏向量产生过度通用的摘要。为了克服这个问题,我们开发了一个框架COOP,它使用输入输出字重叠搜索潜在向量聚合的输入组合。实验结果表明,COC成功减轻了摘要载体退化问题,并在两个意见摘要基准上建立了新的最先进的表现。代码可用于\ url {https://github.com/megagonlabs/coop}。
translated by 谷歌翻译
在本文中,我们开发FaceQVEC,一种软件组件,用于估计ISO / IEC 19794-5中所考虑的每个要点的面部图像的符合性,这是一个质量标准,该标准定义了将它们可接受或不可接受的面部图像的一般质量指南用于官方文件,如护照或身份证。这种质量评估的工具可以有助于提高面部识别的准确性,并确定哪些因素影响给定的面部图像的质量,并采取行动消除或减少这些因素,例如,具有后处理技术或重新获取图像。 FaceQVEC由与上述标准中预期的不同点相关的25个单独测试的自动化,以及被认为与面部质量有关的图像的其他特征。我们首先包括在现实条件下捕获的开发数据集上评估的质量测试的结果。我们使用这些结果来调整每个测试的判定阈值。然后,我们再次在评估数据库中再次检查,该评估数据库包含在开发期间未见的新脸部图像。评估结果展示了个人测试的准确性,用于检查遵守ISO / IEC 19794-5。 Faceqvec可在线获取(https://github.com/uam-biometrics/faceqvec)。
translated by 谷歌翻译